Association
francophone |
Sommaire : Cinq questions à Jacques Printz (CMSL)| L'actualité de la semaine | Théories et concepts | Enseignement | La recherche en pratique | Entreprises | Manifestations | Détente
"Sur la maîtrise des systèmes, j'aimerais lancer une réflexion interdisciplinaire, qui serait possible car le Cnam comporte un puissant pôle économie-gestion. "
Jacques Printz : Les systèmes d'information (comme tous les systèmes technologiques) ont une dynamique propre. Si l'on n'y fait pas attention, leur développement diverge, et ne s'arrête qu'à l'épuisement des ressources de l'organisme qui les développe. Le nom choisi pour notre centre exprimait l'attention que nous voulions porter aux moyens qu'ont les ingénieurs pour s'assurer que les choses convergent. C'était il y a quelques dix ans, quand nous avons créé le centre avec Jean-Pierre Meinadier (que vous avez interviewé dans votre numéro 102 ).
La première chose qui me frappe aujourd'hui, quand je regarde l'informatique, avec 35 ans de recul, c'est la taille des systèmes. Quand j'étais ingénieur débutant, travaillant sur les systèmes d'exploitation, sur Multics au MIT et ensuite chez Bull avec Gcos 64 puis Gcos 7, les systèmes qui comportaient plus d'un million de lignes de code pouvaient presque se compter sur les doigts de la main, dans le monde. La taille moyenne des applications était de l'ordre de 50 000 lignes de Cobol, voire moins. Aujourd'hui on ne compte plus les applications qui ont dépassé le million.
Du point de vue fonctionnel, les ambitions des systèmes sont passés d'applications bien particulières (une paye) à l'intégration complète des systèmes dans l'organisation qu'ils sont censés aider, dans leur business process (modèle d'affaires).
S.H. : Mais la puissance des machines ne facilite-t-elle pas la maîtrise en masquant les difficultés techniques de détail ?
J.P. : On nous répète que les machines ont aujourd'hui une puissance phénoménale par rapport à ce qu'elles étaient... mais nous butons toujours sur des problèmes de performances globales. Si on y regarde de plus près, on trouve toujours un important différentiel entre la puissance unitaire des unités centrales et celle des entrées-sorties, qui n'ont pas suivi la loi de Moore, c'est le moins qu'on puisse dire. Pour compenser cet écart, on met en place des caches et autres dispositifs. Et l'on viole ainsi une des lois fondamentales de la programmation qui est d'éviter de dupliquer l'information, car on ouvre toujours la porte à des possibilités d'incohérence... et si l'on veut en permanence contrôler que les caches sont le reflet de la donnée de référence... on ne fait qu'aggraver les problèmes. On se crée des problèmes de traçabilité qu'on ne sait pas résoudre.
De très grandes entreprises françaises ont du renoncer à d'importants projets novateurs, car leur déploiement a achoppé sur les performances. Pour les systèmes de la "guerre des étoiles", pour le système anti-missiles, on parlait de dizaines de millions de lignes d'Ada. Il est clair que ce n'était pas faisable, que l'on était au delà de l'humainement raisonnable. Nous n'avons ni les cerveaux, ni les organisations stables nécessaires à de tels projets, Ce qui me fait un peu peur, et j'en ai parlé dans mon livre Puissance et limites des systèmes informatisés (chez Hermès/Lavoisier), c'est "l'informatisation de la société". Les systèmes de santé, par exemple, détiennent quantité d'informations confidentielles. A la limite, n'y a-t-il pas des systèmes qu'il ne faudrait pas informatiser ?
S.H. : Alors, quel type de solutions, de démarche, proposez-vous ?
J.P. Une caractéristique intéressante des problèmes de performances, c'est qu'ils sont diffus. Il est rare que l'on parvienne à déterminer un goulet d'étranglement qu'il suffise d'améliorer pour que tout marche bien. Quand on y parvient, d'ailleurs, c'est souvent que l'architecture est bonne, car le diagnostic y est facilité. Un des principes d'architecture, c'est qu'il faut concentrer les fonctions critiques sur quelques modules bien précis. Si par exemple on a besoin d'un accélérateur, pour améliorer le débit sur un réseau, il faut que la fonction cache soit bien identifiée comme telle et que tous ceux qui en ont besoin l'utilisent. Si la fonction se dilue un peu partout, elle devient ingérable.
Nous aimons bien ici le terme d' "architecture testable" . Il exprime que l'architecture n'est pas un objet mathématique destiné à être contemplé. C'est un concept qui est fait pour aider les ingénieurs à construire des projets cohérents et aussi pour organiser leurs équipes. Dans des projets qui comportent des millions de lignes de code, il faut faire travailler en parallèle des centaines d'ingénieurs. Ce n'est pas gérable sans une architecture de système appropriée qui facilitera la communication entre les équipes.
S.H. : La recherche française est très dynamique dans le domaine de la validation-vérification. N'est-ce pas un des grands atouts de la maîtrise des systèmes, autant et plus que l'architecture?
J.P. : C'est aussi un autre thème important (dans lequel je ne rangerai pas les questions de performances). Il ne faisait pas l'objet d'enseignement bien identifié quand je suis arrivé ici.
Quand on regarde les techniques ou les technologies qui sont utilisées aujourd'hui pour vérifier les systèmes, puis pour les valider par rapport à leurs objectifs, il faut distinguer ce qui relève des méthodes que l'on peut qualifier de traditionnelles (tests, boites noires et boites blanches, graphes de couverture, etc.) et les méthodes formelles (preuves de programmes en particulier). Ces dernières ont bénéficié, en France, de beaucoup d'énergies intellectuelles et de ressources financières. Elles sont intéressantes pour des sous-ensembles critiques, pour les coeurs de système. Par exemple, tout système d'information comporte aujourd'hui un moniteur transactionnel, dont le fonctionnement parfait est essentiel. Et on lui a appliqué (chez IBM pour CICS) des spécifications formelles, en l'occurrence Z (dans sa pré-version B), de J.R. Abrial. A l'époque où j'étais responsable des compilateurs chez Bull, nous utilisions beaucoup cette technique pour construire des compilateurs. Et avec succès.
Mais les méthodes formelles ont elles aussi leurs limites. D'abord, comme elles vérifient effectivement des calculs, elles sont soumises à l'explosion combinatoire. On connaît aujourd'hui la taille des plus gros programmes qu'elles peuvent traiter, au grand maximum 100 000 lignes de code. 50 000 lignes en pratique.
Ensuite, les méthodes de type algébrique exigent une connaissance des mathématiques d'un niveau qui n'est pas vraiment compatible avec la formation des ingénieurs, telle qu'elle est aujourd'hui, même au plus haut niveau. Je me rappelle d'un ingénieur de l'Armement qui avait été traumatisé par les cours d'informatique théorique qu'il avait suivis à Polytechnique ! Or (et l'on a parfois du mal à le comprendre, dans le milieu académique et même dans le milieu industriel), un maître d'ouvrage a besoin d'avoir confiance dans ce que fait son maître d'oeuvre. Un directeur de projet doit suffisamment comprendre ce que font ses ingénieurs. Si une technique pour construire le système s'apparente pour lui à de la magie, même si c'est de la magie à base de mathématiques, la confiance ne peut s'établir, et il y a des réactions de rejet liées aux contingences humaines.
Enfin, la logique s'est beaucoup développée à la fin du XIXe et au début du XXeme siècle, aboutissant à de belles théories (logique du premier ordre, calcul des prédicats, avec quantificateurs, etc. ). Le problème, en particulier pour le calcul des prédicats, c'est que cette logique ne permet pas de raisonner proprement sur des programmes, car elle présuppose un univers où il n'y a pas de temps, où la vitesse de calcul est infinie. Alors que le monde de l'ingénieur relève du constructivisme, soumis au temps et à ses aléas, s'appliquant à des objets imparfaits, parce qu'ils sont faits par des homme qui sont eux-mêmes imparfaits. Von Neumann s'est beaucoup intéressé à ces questions, mais n'a pas été beaucoup relayé sur ce point.
Henri Poincaré a écrit que, pour raisonner sainement sur des ensembles, il faut qu'ils soient complètement déterminés. Or, en informatique, on opère constamment dans des ensembles évolutifs, donc dans du non-prédicatif, et du coup l'on aboutit à des paradoxes. Dans le contexte de grands ministères où je suis appelé en consultation, les programmes sont soumis à la législation, que le gouvernement ou le parlement modifie constamment. Et il faut absolument que les systèmes d'information suivent. Or ils sont énormes, il y a des dizaines de systèmes, des applications qui atteignent deux ou trois millions de lignes de Cobol, qui matérialisent tout l'historique de la fiscalité, et qu'il faut modifier en quelques mois ! Une difficulté réellement colossale.
Il faut donc voir ces méthodes comme des compléments aux méthodes générales. La clé de la fiabilité et de la sûreté de fonctionnement des systèmes, c'est l'architecture, qui permet de concentrer la complexité sur des pièces bien particulières du système, et d'appliquer des méthodes formelles à ces pièces seulement. Et, bien sûr, de les faire réaliser par les ingénieurs les plus compétents.
Si on regarde l'histoire des techniques sur un ou deux siècles, elles ont abouti à des objets extrêmement complexes, par exemple un véhicule d'aujourd'hui. S'il fonctionne de manière sûre, malgré sa complexité élevée, c'est parce qu'il est bien hiérarchisé. On a réussi à créer des entités autonomes, à les faire travailler de concert. On est tenté par l'analogie avec les organismes vivants, mais la métaphore est dangereuse. Mais on peut parler, avec Herbert Simon (notamment dans son livre La science des systèmes, science de l'artificiel, qui en est à sa troisième édition) d' "architecture de la complexité". Un grand système c'est un ensemble de machines coopérantes. Comme on sait valider et vérifier une machine, nous avons là une bonne stratégie d'ingénieur.
S.H. : Comment traduisez-vous ces objectifs dans vos activités d'enseignement et de recherche?
J.P. Le cours de génie logiciel forme quelque 1000 étudiants chaque année (en y incluant notre convention avec l'Ecole centrale d'électronique, qui envoie ses ingénieurs chez nous pour cette spécialité). Il s'agit d'un cours de 60 heures, avec des exercices dirigés, une unité de valeurs qui va se refondre dans le système LMD et notre école d'ingénieurs du Cnam, au niveau première année du master.
L'ambition de ce cours est que ceux qui l'ont suivi aient compris trois choses
:
- la gestion de projet c'est très important,
- l'architecture c'est important, et ne se réduit pas à la connaissance d'un
langage de modélisation,
- la validation-vérification et les tests, c'est important. Il faut que les
ingénieurs aient, une fois au moins dans leur vie, entendu parler de tests (40
à 50% de l'effort d'un projet est dédié aux tests, parfois
plus), ce qui n'est pas le cas aujourd'hui de la plupart des ingénieurs débutants
en informatique.
Nous envisageons de mettre en place un enseignement sur les problèmes de performances, car les problèmes rencontrés sur le terrain viennent pour une part du manque de formation spécifique aux plates-formes. Quand je faisais mes études d'ingénieur, nous étions très sensibilisés aux limites : résistance des matériaux, vibrations dans un moteur, effets des courants forts... En informatique, on en a perdu l'habitude.
La manière d'enseigner a son importance. Il y a quelques années, Maurice Nivat (un des grands introducteurs de la théorie des automates en France), m'avait demandé de faire un cours industriel dans un DESS de Paris 7. J'expliquais comment, dans une société comme Bull, on utilisait cette théorie pour faire de compilateurs et des protocoles. La plupart des étudiants étaient abreuvés de cette théorie, mais n'avait aucune idée de ce à quoi elle pouvait servir dans la pratique. Quant on veut former des ingénieurs, il faut d'abord montrer les applications, les types de programmes qu'on peut construire avec une telle théorie. Après quoi l'étudiant est prêt à assimiler la théorie et son formalisme mathématique.
Et le cours se juge sur une étude de cas (je suis un adversaire du QCM). La correction représente un gros travail, mais c'est un exercice intéressant, y compris sociologiquement. On voit comment évoluent les gens. Une étude de cas permet de voir si la personne a compris quelque chose, même si elle s'est un peu trompée dans les calculs.
Quant à la recherche, elle se pratique ici dans le cadre du Cedric, qui travaille notamment sur le mulimédia, l'optimisation combinatoire et plus généralement la recherche opérationnelle, la validation des "systèmes sûrs". Nous allons probablement utiliser la réforme LMD et l'évolution de notre école d'ingénieurs pour pousser la recherche dans des domaines comme l'architecture et la validation des systèmes complexes.
Nous essayons d'alimenter la profession en réflexions dont nous pensons qu'elle peut l'aider. Cela tient à l'existence des chaires qu'a créé le Cnam (ce dont il faut le remercier) : en son temps la chaire de génie logiciel, puis la chaire d'intégration de systèmes et, tout récemment une chaire de systèmes enfouis, confiée à Pierre Paradinas (qui a fait une grande partie de sa carrière chez Gemplus). Nous sommes quelques uns à regarder le système d'information dans sa totalité, parce que les vraies difficultés sont à ce niveau, plus que dans telle ou telle partie des applications, comme l'affichage de belles images, les animations élaborées sur les écrans...
Sur la maîtrise des systèmes, comme pour l'ingénierie en général, il est difficile de faire un travail utile dans le cadre d'un laboratoire de recherche académique, si prestigieux soit-il. Car les projets industriels trébuchent rarement sur des problèmes techniques, mais plutôt sur des contraintes économiques, de délais ou de qualité globale, et sur la difficulté de gérer des équipes nombreuses. J'aimerais lancer une réflexion interdisciplinaire sur ces problèmes, qui serait possible dans le cadre du Cnam puisque nous avons un puissant pôle économie-gestion.
Propos recueillis par Pierre Berger
Une conférence publique sur les enjeux éthiques des technologies de l'information est donnée ce mardi 27 avril, à 17 heures, au Collège de France. Y participent notamment Gilles Kahn (Inria) et Jean-Gabriel Ganascia (Lip6). Cette manifestation sert de coup d'envoi à un cycle de conférences organisé dans le cadre de l'école doctorale Edite. Contact : Jean-Gabriel.Ganascia@lip6.fr
Le Laboratoire d'analyse et d'architecture des systèmes (Laas) du CNRS a créé un prix de thèse en hommage à Jean Lagasse, son directeur fondateur. Ce prix récompensera chaque année une ou plusieurs thèses de doctorat, françaises ou en cotutelle, dans le domaine des sciences et technologies de l'information et de la communication (Stic) : automatique, informatique, traitement du signal, micro-électronique, et micro et nano-systèmes (thématiques des sections 07 et 08 du Comité National). Le prix Prix est doté de 4000 euros en 2004. Les candidats sont invités à soumettre leur dossier avant le 15 juin. Pour en savoir plus.
Un séminaire "soft computing et transports", organisé avec l'Inrets, se tiendra le 27 mai au Cnam, dans le cadre du forum "Systèmes et logiciels pour les NTIC dans le transport". Pour plus de renseignements^
Dans leur lettre "Automates intelligents" du 29 janvier , Jean-Paul Baquiast et Christophe Jacquemin se demandent comment se présentera l'ordinateur quantique dont certains prévoient des applications industrielles dès les années 2020 ? Sera-t-il solide, liquide ou gazeux ? Aura-t-il la taille d'un immeuble ou tiendra-t-il dans la main ? Bien malin qui aujourd'hui pourrait le dire ... Parmi les grands desseins pour l'Europe, l'ordinateur quantique devrait figurer en bonne place. A lire sur le site
Une revue majeure du domaine des mathématiques a finalement accepté de publier la démonstration de la "conjecture de Kepler" proposée en 1998 par Thomas Hales, de l'Université de Pittsburgh (Pennsylvanie), sur la base de calculs informatiques. C'est en 1611 que Johannes Kepler, énonce - sans en apporter la preuve formelle - ce que tout bon marchand de fruits sait d'instinct : la meilleure façon d'empiler des oranges consiste à former une pyramide où chacune d'entre elles repose sur le creux délimité par ses voisines de la couche inférieure.
La résolution de ce problème exposée par Hales il y a six ans n'avait à l'époque pas convaincu tout le monde car elle reposait en grande partie sur des opérations effectuées par ordinateur, un instrument dont les mathématiciens se méfient comme de la peste. Pendant six longues années donc, des correcteurs se sont penchés sur les travaux de l'Américain afin d'en vérifier à la main le moindre résultat. Mais la tâche était titanesque et il a fallu trancher la question de la validité des preuves fournies en dépit des ambiguïtés liées au recours à l'informatique. Les prestigieuses Annals of mathematics ont ainsi décidé de publier la partie théorique des recherches de Hales, laissant à un journal plus spécialisé, Discrete and computational geometry, le soin d'éditer le reste. Cette décision représente un compromis qui fera date dans l'histoire des débats de plus en plus fréquents qui opposent les mathématiciens partisans de l'ordinateur et ses détracteurs. (In math, computers don't lie. Or do they ?) NYT 06/04/04
Selon nos informations, d'autres questions mathématiques sont actuellement étudiées par ce genre de méthodes, notamment la classification des groupes finis simples. Y aura-t-il de plus en plus de résultats de ce genre ? La question reste ouverte.
Deux cris d'alarme dans la Tribune libre de l'IUFM de Grenoble Au 15 mars 2004, l'organisation académique pour l'année scolaire 2004-2005 est en cours d'élaboration ; ce sont en particulier toutes les dispositions reposant sur des « moyens provisoires » qui sont en cours d 'étude. Sur ces moyens provisoires repose (entre autres) la plus grande partie du suivi des opérations TICE, qu'il s'agisse du tutorat, de l'assistance technique, ou encore de la formation continue. Les renseignements disponibles à ce jour laissent présager une réduction importante du volume général de ces moyens provisoires. Sans que les chiffres soient officiellement publiés, il semble aujourd'hui très probable que l'équipe de formation continue en pédagogie des TICE soit réduite dans des proportions fort importantes voire totalement supprimée. Si les prévisions actuelles devaient se confirmer, il pourrait ne rester aucune possibilité d'intervention non disciplinaire auprès des établissements, alors même que l'Académie prétend se poser en partenaire des collectivités dans les ambitieuses opérations de « cartable électronique » engagées en Isère et en Savoie. Le site. (A la demande d'authentification répondre en cliquant sur "annuler")
Jacques Baudé
Rappelons que dans le but de développer, de renforcer et de valider
la maîtrise des technologies de l'information et de la communication par
les étudiants en formation dans les établissements d'enseignement
supérieur, a été institué un Certificat informatique
et internet (C2i).
Il est prévu deux niveaux :
- un niveau 1 d'exigence applicable à tous les étudiants et les
stagiaires de formation continue. Ce premier niveau sera exigible pour la titularisation
des professeurs des écoles ; seul ce niveau 1 est concerné par
le cédérom téléchargeable.
- un niveau 2 faisant l'objet d'exigences plus élevées en fonction
des orientations professionnelles des formations dispensées (à
travers les enseignements de pré-professionnalisation et les filières
professionnalisées).Le
site.
Une conférence a été faite, le mardi 30 mars 2004, dans
le cadre du séminaire "Mettre les TIC au service du LMD". L'objectif
de ce séminaire
était de sensibiliser la communauté universitaire à la
nécessaire mise en cohérence des stratégies de déploiement
des TIC et de mise en ouvre du LMD
(Licence-Master-Doctorat) dans les établissements. Plus précisément,
il s'agissait de mettre en valeur les réflexions en cours et les initiatives
engagées pour en généraliser les acquis dans la perspective
de renforcer l'association TIC et LMD. Le
texte (8 pages, plus annexes, en PDF).
Dans la foulée des Rencontres de l'Orme sur l'enseignement à l’heure d’Internet et des nouvelles technologies, on consultera le site de Cyberécoles. Au sommaire des dernières livraisons : l'Activ board de Promethean, la commission Thélot publie la synthèse du Grand débat, plusieurs sondages, rapports et bilans en France pour le développement des Tice...
Au sommaire de VendrEDI numéro 77 : B2B automobile, Microsoft-Sun, standards WS, une architecture en kit, Udef pour assurer.
Tous les numéros peuvent être téléchargés
"Une action intégrée est un projet de recherche, établi
conjointement par deux équipes de recherche, l'une française,
l'autre étrangère, qui bénéficient après
évaluation du soutien financier des deux pays." La date de clôture
d'un certain nombre de ces PAI est fixée au 14 mai à minuit (heure
française). Pour en savoir plus, consulter
le site de la direction des
relations internationales du CNRS .
et lire la brève consacrée aux PAI dans
l'édition du 12
mars 2004 de SG Hebdo
Tandis que les progrès technologiques ne cessent de tirer vers le bas le coût des composants électroniques, les fonds fédéraux alloués à la recherche universitaire en robotique enregistrent une hausse marquée. L'Institut de robotique de la Carnegie Mellon University (Pennsylvanie) a ainsi vu son financement augmenter de 48% depuis l'an 2000 et d'autres comme les instituts de technologie de Californie, Virginie et Géorgie ont enregistré des progressions de plus de 50% ces dernières années. Ce mouvement est en grande partie lié à l'intérêt que porte l'Armée américaine au développement de véhicules terre, mer ou air autonomes. A l'heure actuelle, la Darpa (Defense ddvanced research projects agency) soutient quelque 40 projets de recherche de ce type. Entre 1991 et 1999, le Pentagone a dépensé 3 milliards de dollars pour l'élaboration d'avions sans pilote et il devrait investir près de 10 milliards supplémentaires au cours des six prochaines années. Le Département de la Défense espère d'ailleurs s'équiper de véhicules terrestres autonomes pour un tiers de sa cohorte d'ici 2015. BG 11/04/04 (More cash flowing to robotics research). D'après boston.com. Communiqué par l'Ambassade de France.
Consultez le site des associations fondatrices de l'Asti, où vous trouverez les manifestations qu'elles organisent.
La Semaine du document numérique se tiendra du 21 au 25 juin à La Rochelle. Cette manifestation regroupe en un même lieu 20 rencontres scientifiques. Il s’agit là d’une volonté du Réseau thématique pluridisciplinaire Document du département Stic du CNRS de fédérer les activités portant sur le document autour de manifestations (conférences, rencontres, colloques thématiques, journées, ateliers, …) en un même lieu, sur une semaine. L’objectif est avant tout de faire se rencontrer des communautés scientifiques travaillant sur un même objet dans des disciplines scientifiques aussi diverses que les informaticiens, historiens, linguistes, cogniticiens, pédagogues, ….
Les thèmes scientifiques portent principalement sur trois axes :
• Document et patrimoine : la valorisation du patrimoine est une thématique
très active tant au niveau français qu’européen.
Elle intéresse à la fois des historiens, des littéraires,
des informaticiens. Nous proposons d’identifier dans la SDN une composante
forte sur le patrimoine, tant d’un point de vue préservation et
diffusion au plus grand nombre, que du point de vue analyse de contenu en vue
d’une indexation, d’une recherche d’informations, d’une
aide à l’expertise.
• Document et contenu : De nombreuses communautés s’intéressent
au contenu du document en vue d’un traitement automatique. Il s’agit
plus particulièrement de dégager des indices image, textuels,
thématiques, lexicaux … en vue de la constitution d’indexes
nécessaires pour la navigation, la recherche d’informations, l’indexation.
Classiquement, ces études portent sur « l’indexation de documents
par le contenu » dans le cadre de documents provenant du Web, de fonds
documentaires actuels ou anciens, de documents métiers ou thématiques
(cartes, entreprises, organisations, …)
• Document et usage : Le document numérique donne lieu à
de nouveaux usages qu’il convient d’identifier, d’analyser,
et d’intégrer dans les différentes phases de conception,
d’utilisation, et de gestion du document. Cet apport du support numérique
constitue une véritable mutation dans le mode d’interaction entre
concepteurs, utilisateurs, gestionnaires des documents.
Au delà des spécificités de chaque manifestation, le RTP Doc proposera de faire un bilan des actions de recherche actuelles, et de dégager les orientations scientifiques en s’affranchissant des barrières disciplinaires.
Cette semaine est organisée par le CNRS (RTP Doc du département
STIC) et le laboratoire L3i de l’université de la Rochelle. Les
inscriptions sont ouvertes
dès à présent : Contact :Rémy
Mullot
Public concerné :
- Chercheurs CNRS, enseignants-chercheurs et doctorants dans le domaine des
EIAH ou dont les EIAH sont un champ d'application, issus des disciplines suivantes
: informatique, psychologie, didactique, sciences de l'éducation, sciences
du langage, épistémologie, ergonomie, sociologie ;
- R&D industrielle, chefs de projet TICE (notamment campus numérique).
L'effectif de l'école sera limité à 80 personnes. Pour
cette raison, les personnes intéressées doivent se soumettre à
une procédure de pré-inscription au terme de laquelle les inscriptions
seront confirmées. Une attention particulière sera apportée,
lors de l'examen des candidatures, aux motivations et aux éléments
du curriculum vitae attestant de l'engagement dans la recherche sur les EIAH.
Thème scientifique :
Placée sous la responsabilité scientifique de Jean-François
Rouet (Laboratoire LaCo, Poitiers, cette seconde école thématique
CNRS du RTP 39, mettra l'accent sur les problématique cognitives pour
aborder les questions scientifiques et technologiques soulevées par la
conception, l'évaluation et l'usage des environnements informatiques
pour l'apprentissage humain (EIAH). Il s'agit d'un domaine de recherche largement
pluridisciplinaire (informatique, psychologie, didactiques, sciences socialesŠ)
et actuellement en pleine expansion. A une approche relativement cloisonnée
qui a pu prévaloir pendant les dernières décennies, se
substitue peu à peu une approche qui intègre à la fois
les avancées de la technologie et les connaissances sur le fonctionnement
cognitif et social de l'être humain. Cette évolution rapide du
champ scientifique s'accompagne d'une demande sociale et industrielle en forte
croissance, qui vise à mieux articuler la recherche fondamentale, les
politiques éducatives et l'innovation technologique.
La première école thématique "Théories et méthodes
pour la conception, l'évaluation et l'usage d'environnements informatiques
pour l'apprentissage humain" qui s'est tenue à Autrans en juillet
2003 a permis aux participants de construire des outils conceptuels et méthodologiques
pour l'interaction entre les disciplines fondatrices de cette nouvelle science
des environnements informatiques pour l'apprentissage. L'école projetée
en 2004 va prolonger cette initiative en approfondissant les aspects théoriques
et méthodologiques pertinents pour l'étude des apprentissages
humains.
Cette seconde école est donc centrée sur les théories cognitives
et sociocognitives des apprentissages, et sur les techniques permettant d'estimer
l'impact des environnements informatiques sur les conduites des individus et
des groupes en situation d'apprentissage (évolution des connaissances,
des compétences et des attitudes). Elle ne vise donc plus à aborder
en largeur l'ensemble des considérations théoriques pertinentes
au domaine, mais à traiter en profondeur l'une des dimensions clés
identifiées par les travaux du Réseau Thématique Pluridisciplinaire.
Information et inscriptions . Contact : Béatrice
Buccio.
Sole France
organise en coopération avec l'Ensam l'après midi du 29 avril
prochain une réunion de présentations sur le thème : La
gestion des connaissances (KM), un outil efficace pour la Logistique ? à
l'espace Hamelin, 17 rue Hamelin à 14 heures. Animateurs : Gilles Balmisse
(Knowledge
Consult) - Marc de Fouchécour (Ensam Paris)
La réunion a pour objet la revue de l'apport aux grandes fonctions de
l'ingénierie logistique et de la logistique en opérations, des
méthodes basées sur le Knowledge Management, l'évaluation
et la diffusion de l'état de l'art le plus avancé afin de susciter
de nouvelles expériences. Elle est une occasion pour les experts et les
spécialistes du Knowledge Management d'affiner la vision des champs d'application
possibles de leurs disciplines à la logistique et à l'entreprise
étendue.
La réunion alternera des exposés sur la problématique et
des témoignages. Elle est ouverte sur inscription préalable, ce
qu'on peut faire en ligne. Le site.
Apprentissage de la programmation avec OCaml. par Catherine Dubois et Valérie Ménissier-Morain. Hermès-Lavoisier. 454 pages, 110 euros.¨
Pour bien programmer, il ne suffit pas de maîtriser un des nombreux langages de plus ou moins haut niveau courants dans l'industrie. Il faut aller plus profond dans les structures et les concepts fondamentaux. OCaml met en oeuvre le "style fonctionnel" et est souvent utilisé par les enseignants dans le cadre des formations qu'il donne. L'ouvrage que publient Catherine Dubois (Cnam) et Valérie Ménissier-Morain (Paris 6) est destiné à des débutants en informatique, plus précisément en programmation. Il est également un support pédagogique pour le programmeur qui désir aborder le style ML. Les notions retenues sont disponibles dans tout dialecte de ML, en particulier Caml-Light, OCaml et StandardML.
La première partie du livre introduit OCaml, puis décrit les fonctions, les listes, les types produits (paires et n-uplets), sommes et récursifs, les données mutables, les exceptions. Elle introduit enxsuite à la modularité et au choix des structures de données. La deuxième partie propose des développements complets : alignement de séquences ADN, vérification de formules logiques, jeu Court-circuit (exemple graphique).
Juste pour jouer. Le graphisme est assez réussi. Jouez.
Retour sur un vieux débat Voyez vous-même.
Ici aussi, quelques classiques, mais d'autres idées moins connues. Le site.
L'équipe de Stic-Hebdo : Directeur de la publication : Jean-Paul Haton. Rédacteur en chef : Pierre Berger. Secrétaire général de la rédaction : François Louis Nicolet, Chefs de rubrique : Jacques Baudé, Mireille Boris, Claire Rémy et Armand Berger. Stic-Hebdo est hébergé par le LRI et diffusé par l'Inist.